Lokale KI-Plattformen wie Ollama und ComfyUI machen Nutzer unabhängig von Tech-Konzernen und kostenpflichtigen KI-Abos. Doch die Freiheit endet an der eigenen Haustür: Wer unterwegs ist, muss auf die Rechenpower des heimischen KI-PCs verzichten.
|
02.12.2025 11:41 Uhr |

Lokale KI-Plattformen wie Ollama und ComfyUI machen Nutzer unabhängig von Tech-Konzernen und kostenpflichtigen KI-Abos. Doch die Freiheit endet an der eigenen Haustür: Wer unterwegs ist, muss auf die Rechenpower des heimischen KI-PCs verzichten.
Oder man nimmt sie einfach mit: per Fernverbindung. Wir zeigen, wie Sie gratis mehrere Geräte in ein virtuelles lokales Netzwerk bringen und die KI-Funktionen Ihres Rechners mobil nutzen. Einmal eingerichtet, generieren Sie Ihre ComfyUI-Bilder in gewohnter Bedienoberfläche über den Browser auf dem Mobilgerät oder chatten per Ollama mit Ihrem zu Hause installierten LLM. Damit der KI-Rechner dabei nicht permanent auf Abruf stehen muss, wecken Sie ihn einfach aus der Ferne auf.
Der Artikel erklärt, wie Sie mehrere Endgeräte ohne besonderes Vorwissen in ein virtuelles lokales Netzwerk bringen, um anschließend auf die KI-Installationen von Ollama und ComfyUI zuzugreifen. Im Projekt wecken wir den heruntergefahrenen PC mit einem Raspi auf. Alternativ geht das auch mit Home Assistant OS. Für den Fernzugriff per Smartphone oder Notebook zeigen wir zwei Lösungen. Mit denen können Sie die lokalen KIs jeweils über den Windows Remote Desktop steuern oder direkt über den Browser auf sie zugreifen. Folgende Hardware kommt im Projekt zum Einsatz: ein Raspi 4 und ein privat genutzter Windows-Rechner mit Nvidia-Grafikkarte (RTX 3090), die jeweils per LAN-Kabel mit dem Router verbunden sind sowie ein Windows-Notebook und ein Android-Smartphone als mobile Zugriffspunkte.